V2EX  ›  英汉词典
Enqueued related words: Adamw

Weight Decay

定义 Definition

Weight decay(权重衰减)是机器学习/深度学习中的一种正则化方法:在训练时对模型参数(权重)的大小施加惩罚,促使权重变小,从而降低过拟合、提升泛化能力。最常见形式与 L2 正则化密切相关(但在一些优化器中也有“解耦权重衰减”等实现方式)。

发音 Pronunciation (IPA)

/ˈweɪt dɪˈkeɪ/

例句 Examples

Weight decay helps prevent overfitting.
权重衰减有助于防止过拟合。

When training a neural network with AdamW, using decoupled weight decay can improve generalization without interfering with the gradient-based update.
用 AdamW 训练神经网络时,采用“解耦”的权重衰减可以在不干扰基于梯度的更新的情况下提升泛化效果。

词源 Etymology

Weight 原意是“重量”,在机器学习里借用来指“权重/参数”;decay 意为“衰减、逐渐变小”。合起来的字面含义是“让权重逐步衰减”,对应训练过程中通过惩罚项或额外更新把参数往更小的方向推,从而让模型更“简单”。

相关词 Related Words

文学与经典作品 Literary Works

  • Deep Learning(Ian Goodfellow, Yoshua Bengio, Aaron Courville)——在正则化与权重惩罚相关章节中讨论与 L2/weight decay 相关的思想与实践。
  • Pattern Recognition and Machine Learning(Christopher M. Bishop)——在参数范数惩罚、正则化与泛化分析中涉及与“权重衰减”同类的 L2 惩罚思想。
  • “Decoupled Weight Decay Regularization”(Ilya Loshchilov & Frank Hutter, 2017)——提出并系统阐释 AdamW 中“解耦权重衰减”的做法与效果。
关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   683 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 12ms · UTC 20:53 · PVG 04:53 · LAX 12:53 · JFK 15:53
♥ Do have faith in what you're doing.